একটি জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) মডেলকে ফাইন-টিউনিং যেমন জেমা মডেলের আচরণ পরিবর্তন করে। আপনি সাধারণত একটি নির্দিষ্ট টাস্ক বা ডোমেনে এর পারফরম্যান্স উন্নত করার অভিপ্রায়ে বা গ্রাহক পরিষেবার মতো একটি ভূমিকা আরও ভালভাবে সম্পাদন করার অভিপ্রায়ে সূক্ষ্ম সুর করেন। জেমা মডেলগুলি খোলা ওজনের সাথে প্রকাশ করা হয়, যার অর্থ আপনি সেই ওজনগুলিকে সংশোধন করতে পারেন, যা মডেলের আচরণকে পরিবর্তন করে। একটি জেমা মডেলকে ফাইন-টিউন করার জন্য সাধারণ পদক্ষেপগুলি নিম্নরূপ:
একটি কাঠামো চয়ন করুন
জেমা মডেলগুলি বিভিন্ন ধরণের এআই টিউনিং ফ্রেমওয়ার্কের সাথে সামঞ্জস্যপূর্ণ। প্রতিটি কাঠামো বিভিন্ন সুবিধা প্রদান করে এবং সাধারণত একটি নির্দিষ্ট মডেল বিন্যাসে সীমাবদ্ধ থাকে। এখানে বিভিন্ন ফ্রেমওয়ার্ক সহ জেমা মডেল টিউন করার জন্য গাইড রয়েছে:
- LoRA ব্যবহার করে Keras
- JAX-এর জন্য Gemma লাইব্রেরি
- আলিঙ্গন মুখ
- গুগল ক্লাউড জিকেই (এইচএফ ট্রান্সফরমার সহ মাল্টি-জিপিইউ)
- আনস্লথ
- অ্যাক্সোলটল
- কেরাস ডিস্ট্রিবিউটেড টিউনিং ব্যবহার করে
নিশ্চিত করুন যে আপনার উদ্দিষ্ট স্থাপনার মডেল বিন্যাস, যেমন Keras বিন্যাস, Safetensors, বা GGUF, আপনার নির্বাচিত ফ্রেমওয়ার্ক দ্বারা একটি আউটপুট হিসাবে সমর্থিত।
তথ্য সংগ্রহ করুন
মডেল টিউনিং তথ্য প্রয়োজন. টিউনিং ডেটা সাধারণত প্রত্যাশিত প্রতিক্রিয়া সহ ইনপুট ডেটার জোড়া নিয়ে থাকে। বিভিন্ন কাজ বা আউটপুট প্রশিক্ষণের জন্য অনলাইনে অনেক পাবলিক ডেটাসেট উপলব্ধ রয়েছে। উদাহরণস্বরূপ, আপনি যদি গাড়ির অংশের বিবরণকে অংশ নম্বরে অনুবাদ করার জন্য একটি জেমা মডেলকে প্রশিক্ষণ দিতে চান তবে আপনার ডেটাসেটে নিম্নলিখিতগুলি অন্তর্ভুক্ত থাকতে পারে:
training_data = [
{"input_text": "Part number for A4 brake caliper", "output_text": "4M0615107BS"},
{"input_text": "Part number for Beetle fuel pump", "output_text": "6A127026H"},
{"input_text": "Part number for Camaro cylinder head", "output_text": "12711770"},
]
আপনি যদি একটি Gemma মডেলকে একটি নির্দিষ্ট কাজ বা ভূমিকা সম্পাদন করতে চান তবে আপনাকে সাধারণত সেই কাজের একাধিক বৈচিত্র প্রদর্শন করে একটি ডেটাসেট কম্পাইল করতে হবে। একটি মডেল টিউন করার জন্য আপনার কতটা ডেটা প্রয়োজন তা আপনার লক্ষ্যগুলির উপর নির্ভর করে, বিশেষ করে আপনি মডেল থেকে কতটা আচরণগত পরিবর্তন চান এবং আপনি মডেলটি কতটা ভালোভাবে কাজটি সম্পন্ন করতে চান এবং ইনপুট ডেটার পরিবর্তনের স্তরের উপর ভিত্তি করে।
সাধারণভাবে, আপনার টাস্ক টিউনিংয়ের জন্য ডেটার একটি ছোট সেট দিয়ে শুরু করা উচিত, প্রশিক্ষণের পরামিতি সামঞ্জস্য করা এবং ডেটা যোগ করা উচিত যতক্ষণ না আপনি আপনার প্রয়োজনীয়তা পূরণ করে এমন টাস্ক পারফরম্যান্স অর্জন করেন। আমাদের কিছু উদাহরণ অ্যাপ্লিকেশন দেখায় যে আপনি 20 টির মতো প্রম্পট এবং প্রতিক্রিয়া জোড়া দিয়ে একটি জেমা মডেলের আচরণকে প্রভাবিত করতে পারেন। আরও বিশদ বিবরণের জন্য, Gemma এর সাথে একটি ব্যবসায়িক ইমেল AI সহকারী তৈরি করুন এবং Gemma-এর সাথে কথ্য ভাষায় কাজগুলি দেখুন।
টিউন এবং মডেল পরীক্ষা
একবার আপনার কাছে একটি টিউনিং ফ্রেমওয়ার্ক এবং টিউনিং ডেটা থাকলে, আপনি জেমা মডেল টিউনিং প্রক্রিয়া শুরু করতে পারেন। টিউনিং করার সময়, আপনি কীভাবে টিউন করেন তার জন্য আপনার কাছে কিছু বিকল্প রয়েছে যা এটি সম্পূর্ণ করার জন্য আপনার প্রয়োজনীয় সংস্থানগুলিকে প্রভাবিত করে। আপনার টিউন করা মডেলটি টিউন করার পরে আপনি যেভাবে চান তা সম্পাদন করছে কিনা তা মূল্যায়ন করার জন্য আপনার একটি পরীক্ষার পরিকল্পনা থাকা উচিত।
প্যারামিটার-দক্ষ টিউনিং
জেমার মতো একটি খোলা ওজনের মডেলকে ফাইন-টিউনিং করার সময়, আপনার কাছে মডেলের সমস্ত প্যারামিটার টিউন করার বা একটি কম রিসোর্স ইনটেনসিভ প্যারামিটার দক্ষ টিউনিং কৌশল ব্যবহার করার বিকল্প রয়েছে যা তাদের একটি উপসেট আপডেট করে। একটি সম্পূর্ণ টিউনিং পদ্ধতির অর্থ হল যে আপনি আপনার টিউনিং ডেটা প্রয়োগ করার সাথে সাথে আপনি মডেলের সমস্ত প্যারামিটারের জন্য নতুন ওজন গণনা করবেন। এই পদ্ধতিটি গণনা নিবিড় এবং মেমরি নিবিড়, যেহেতু আপনি বিলিয়ন প্যারামিটারের জন্য এই গণনাগুলি সম্পাদন করছেন। কম রিসোর্স ইনটেনসিভ টিউনিং পন্থা ব্যবহার করে, যাকে প্যারামিটার এফিসিয়েন্ট ফাইন-টিউনিং (PEFT) বলা হয়, যার মধ্যে লো র্যাঙ্ক অ্যাডাপ্টার (LoRA) টিউনিংয়ের মতো কৌশলগুলিও কম কম্পিউট রিসোর্সে একই রকম ফলাফল তৈরি করতে পারে। কিভাবে LoRA ব্যবহার করে কম রিসোর্স দিয়ে টিউনিং করা যায় তার বিস্তারিত জানার জন্য, কেরাসের ফাইন-টিউন জেমা মডেলগুলি LoRA ব্যবহার করে এবং ফাইন-টিউনিং জেমা মডেলগুলিকে আলিঙ্গন মুখে দেখুন৷
টিউন করা মডেল পরীক্ষা করা হচ্ছে
একবার আপনি একটি নির্দিষ্ট কাজের জন্য একটি মডেল টিউন করার পরে আপনি এটি সম্পাদন করতে চান এমন কাজের সেটের বিপরীতে এটির কার্যকারিতা পরীক্ষা করা উচিত। আপনার মডেলটি এমন কাজ বা অনুরোধগুলির সাথে পরীক্ষা করা উচিত যাতে এটি বিশেষভাবে প্রশিক্ষিত ছিল না। আপনি কীভাবে আপনার টিউন করা মডেলটি পরীক্ষা করবেন তা নির্ভর করে আপনি এটি যে কাজটি সম্পাদন করতে চান এবং আপনি মডেলের জন্য ইনপুট এবং আউটপুটগুলি কতটা নিবিড়ভাবে পরিচালনা করেন তার উপর। জেনারেটিভ মডেল টেস্টিং পরিচালনা করার একটি সাধারণ উপায় হল সাফল্য, ব্যর্থতা এবং সীমারেখার ক্ষেত্রে ব্যবহার করা:
- সাফল্যের পরীক্ষা : অনুরোধ করে যে টিউন করা মডেলটি সর্বদা সফলভাবে সম্পাদন করতে সক্ষম হওয়া উচিত।
- ব্যর্থতা পরীক্ষা : অনুরোধ করা হয়েছে যে টিউন করা মডেলটি সবসময় সঞ্চালন করতে সক্ষম হবে না, বা অনুরোধ করা হলে স্পষ্টভাবে সম্পাদন করতে অস্বীকার করবে।
- সীমানা পরীক্ষা : অনুরোধ যে টিউন করা মডেলটি সম্পাদন করতে সক্ষম হওয়া উচিত, যদি তারা একটি সংজ্ঞায়িত সীমার মধ্যে পড়ে, বা সীমার সেট, গ্রহণযোগ্য আউটপুট আচরণের।
আপনার জেনারেটিভ AI অ্যাপ্লিকেশনের জন্য ব্যর্থতা বা সীমানা শর্তগুলি পরীক্ষা করার সময়, আপনাকে দায়ী জেনারেটিভ AI টুলকিটে বর্ণিত জেনারেটিভ এআই সুরক্ষা পদ্ধতি, কৌশল এবং সরঞ্জামগুলিও প্রয়োগ করতে হবে।
মডেল স্থাপন
আপনার টিউনিং এবং আপনার পরীক্ষার সফল সমাপ্তির পরে, এটি আপনার মডেল স্থাপন করার সময়। একটি টিউন করা মডেল কীভাবে স্থাপন করতে হয় তার জন্য আপনি সাধারণত আপনার নির্বাচিত কাঠামোর জন্য ডকুমেন্টেশন উল্লেখ করতে পারেন।
আপনি যদি LoRA টিউন করা ওজনের সাথে একটি মডেল স্থাপন করেন, মনে রাখবেন যে এই কৌশলটির সাহায্যে আপনি সাধারণত মডেলটির জন্য একটি অতিরিক্ত গণনা স্তর হিসাবে LoRA ওজনের সাথে মূল মডেল এবং এর ওজন উভয়ই স্থাপন করেন।
,একটি জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) মডেলকে ফাইন-টিউনিং যেমন জেমা মডেলের আচরণ পরিবর্তন করে। আপনি সাধারণত একটি নির্দিষ্ট টাস্ক বা ডোমেনে এর পারফরম্যান্স উন্নত করার অভিপ্রায়ে বা গ্রাহক পরিষেবার মতো একটি ভূমিকা আরও ভালভাবে সম্পাদন করার অভিপ্রায়ে সূক্ষ্ম সুর করেন। জেমা মডেলগুলি খোলা ওজনের সাথে প্রকাশ করা হয়, যার অর্থ আপনি সেই ওজনগুলিকে সংশোধন করতে পারেন, যা মডেলের আচরণকে পরিবর্তন করে। একটি জেমা মডেলকে ফাইন-টিউন করার জন্য সাধারণ পদক্ষেপগুলি নিম্নরূপ:
একটি কাঠামো চয়ন করুন
জেমা মডেলগুলি বিভিন্ন ধরণের এআই টিউনিং ফ্রেমওয়ার্কের সাথে সামঞ্জস্যপূর্ণ। প্রতিটি কাঠামো বিভিন্ন সুবিধা প্রদান করে এবং সাধারণত একটি নির্দিষ্ট মডেল বিন্যাসে সীমাবদ্ধ থাকে। এখানে বিভিন্ন ফ্রেমওয়ার্ক সহ জেমা মডেল টিউন করার জন্য গাইড রয়েছে:
- LoRA ব্যবহার করে Keras
- JAX-এর জন্য Gemma লাইব্রেরি
- আলিঙ্গন মুখ
- গুগল ক্লাউড জিকেই (এইচএফ ট্রান্সফরমার সহ মাল্টি-জিপিইউ)
- আনস্লথ
- অ্যাক্সোলটল
- কেরাস ডিস্ট্রিবিউটেড টিউনিং ব্যবহার করে
নিশ্চিত করুন যে আপনার উদ্দিষ্ট স্থাপনার মডেল বিন্যাস, যেমন Keras বিন্যাস, Safetensors, বা GGUF, আপনার নির্বাচিত ফ্রেমওয়ার্ক দ্বারা একটি আউটপুট হিসাবে সমর্থিত।
তথ্য সংগ্রহ করুন
মডেল টিউনিং তথ্য প্রয়োজন. টিউনিং ডেটা সাধারণত প্রত্যাশিত প্রতিক্রিয়া সহ ইনপুট ডেটার জোড়া নিয়ে থাকে। বিভিন্ন কাজ বা আউটপুট প্রশিক্ষণের জন্য অনলাইনে অনেক পাবলিক ডেটাসেট উপলব্ধ রয়েছে। উদাহরণস্বরূপ, আপনি যদি গাড়ির অংশের বিবরণকে অংশ নম্বরে অনুবাদ করার জন্য একটি জেমা মডেলকে প্রশিক্ষণ দিতে চান তবে আপনার ডেটাসেটে নিম্নলিখিতগুলি অন্তর্ভুক্ত থাকতে পারে:
training_data = [
{"input_text": "Part number for A4 brake caliper", "output_text": "4M0615107BS"},
{"input_text": "Part number for Beetle fuel pump", "output_text": "6A127026H"},
{"input_text": "Part number for Camaro cylinder head", "output_text": "12711770"},
]
আপনি যদি একটি Gemma মডেলকে একটি নির্দিষ্ট কাজ বা ভূমিকা সম্পাদন করতে চান তবে আপনাকে সাধারণত সেই কাজের একাধিক বৈচিত্র প্রদর্শন করে একটি ডেটাসেট কম্পাইল করতে হবে। একটি মডেল টিউন করার জন্য আপনার কতটা ডেটা প্রয়োজন তা আপনার লক্ষ্যগুলির উপর নির্ভর করে, বিশেষ করে আপনি মডেল থেকে কতটা আচরণগত পরিবর্তন চান এবং আপনি মডেলটি কতটা ভালোভাবে কাজটি সম্পন্ন করতে চান এবং ইনপুট ডেটার পরিবর্তনের স্তরের উপর ভিত্তি করে।
সাধারণভাবে, আপনার টাস্ক টিউনিংয়ের জন্য ডেটার একটি ছোট সেট দিয়ে শুরু করা উচিত, প্রশিক্ষণের পরামিতি সামঞ্জস্য করা এবং ডেটা যোগ করা উচিত যতক্ষণ না আপনি আপনার প্রয়োজনীয়তা পূরণ করে এমন টাস্ক পারফরম্যান্স অর্জন করেন। আমাদের কিছু উদাহরণ অ্যাপ্লিকেশন দেখায় যে আপনি 20 টির মতো প্রম্পট এবং প্রতিক্রিয়া জোড়া দিয়ে একটি জেমা মডেলের আচরণকে প্রভাবিত করতে পারেন। আরও বিশদ বিবরণের জন্য, Gemma এর সাথে একটি ব্যবসায়িক ইমেল AI সহকারী তৈরি করুন এবং Gemma-এর সাথে কথ্য ভাষায় কাজগুলি দেখুন।
টিউন এবং মডেল পরীক্ষা
একবার আপনার কাছে একটি টিউনিং ফ্রেমওয়ার্ক এবং টিউনিং ডেটা থাকলে, আপনি জেমা মডেল টিউনিং প্রক্রিয়া শুরু করতে পারেন। টিউনিং করার সময়, আপনি কীভাবে টিউন করেন তার জন্য আপনার কাছে কিছু বিকল্প রয়েছে যা এটি সম্পূর্ণ করার জন্য আপনার প্রয়োজনীয় সংস্থানগুলিকে প্রভাবিত করে। আপনার টিউন করা মডেলটি টিউন করার পরে আপনি যেভাবে চান তা সম্পাদন করছে কিনা তা মূল্যায়ন করার জন্য আপনার একটি পরীক্ষার পরিকল্পনা থাকা উচিত।
প্যারামিটার-দক্ষ টিউনিং
জেমার মতো একটি খোলা ওজনের মডেলকে ফাইন-টিউনিং করার সময়, আপনার কাছে মডেলের সমস্ত প্যারামিটার টিউন করার বা একটি কম রিসোর্স ইনটেনসিভ প্যারামিটার দক্ষ টিউনিং কৌশল ব্যবহার করার বিকল্প রয়েছে যা তাদের একটি উপসেট আপডেট করে। একটি সম্পূর্ণ টিউনিং পদ্ধতির অর্থ হল যে আপনি আপনার টিউনিং ডেটা প্রয়োগ করার সাথে সাথে আপনি মডেলের সমস্ত প্যারামিটারের জন্য নতুন ওজন গণনা করবেন। এই পদ্ধতিটি গণনা নিবিড় এবং মেমরি নিবিড়, যেহেতু আপনি বিলিয়ন প্যারামিটারের জন্য এই গণনাগুলি সম্পাদন করছেন। কম রিসোর্স ইনটেনসিভ টিউনিং পন্থা ব্যবহার করে, যাকে প্যারামিটার এফিসিয়েন্ট ফাইন-টিউনিং (PEFT) বলা হয়, যার মধ্যে লো র্যাঙ্ক অ্যাডাপ্টার (LoRA) টিউনিংয়ের মতো কৌশলগুলিও কম কম্পিউট রিসোর্সে একই রকম ফলাফল তৈরি করতে পারে। কিভাবে LoRA ব্যবহার করে কম রিসোর্স দিয়ে টিউনিং করা যায় তার বিস্তারিত জানার জন্য, কেরাসের ফাইন-টিউন জেমা মডেলগুলি LoRA ব্যবহার করে এবং ফাইন-টিউনিং জেমা মডেলগুলিকে আলিঙ্গন মুখে দেখুন৷
টিউন করা মডেল পরীক্ষা করা হচ্ছে
একবার আপনি একটি নির্দিষ্ট কাজের জন্য একটি মডেল টিউন করার পরে আপনি এটি সম্পাদন করতে চান এমন কাজের সেটের বিপরীতে এটির কার্যকারিতা পরীক্ষা করা উচিত। আপনার মডেলটি এমন কাজ বা অনুরোধগুলির সাথে পরীক্ষা করা উচিত যাতে এটি বিশেষভাবে প্রশিক্ষিত ছিল না। আপনি কীভাবে আপনার টিউন করা মডেলটি পরীক্ষা করবেন তা নির্ভর করে আপনি এটি যে কাজটি সম্পাদন করতে চান এবং আপনি মডেলের জন্য ইনপুট এবং আউটপুটগুলি কতটা নিবিড়ভাবে পরিচালনা করেন তার উপর। জেনারেটিভ মডেল টেস্টিং পরিচালনা করার একটি সাধারণ উপায় হল সাফল্য, ব্যর্থতা এবং সীমারেখার ক্ষেত্রে ব্যবহার করা:
- সাফল্যের পরীক্ষা : অনুরোধ করে যে টিউন করা মডেলটি সর্বদা সফলভাবে সম্পাদন করতে সক্ষম হওয়া উচিত।
- ব্যর্থতা পরীক্ষা : অনুরোধ করা হয়েছে যে টিউন করা মডেলটি সবসময় সঞ্চালন করতে সক্ষম হবে না, বা অনুরোধ করা হলে স্পষ্টভাবে সম্পাদন করতে অস্বীকার করবে।
- সীমানা পরীক্ষা : অনুরোধ যে টিউন করা মডেলটি সম্পাদন করতে সক্ষম হওয়া উচিত, যদি তারা একটি সংজ্ঞায়িত সীমার মধ্যে পড়ে, বা সীমার সেট, গ্রহণযোগ্য আউটপুট আচরণের।
আপনার জেনারেটিভ AI অ্যাপ্লিকেশনের জন্য ব্যর্থতা বা সীমানা শর্তগুলি পরীক্ষা করার সময়, আপনাকে দায়ী জেনারেটিভ AI টুলকিটে বর্ণিত জেনারেটিভ এআই সুরক্ষা পদ্ধতি, কৌশল এবং সরঞ্জামগুলিও প্রয়োগ করতে হবে।
মডেল স্থাপন
আপনার টিউনিং এবং আপনার পরীক্ষার সফল সমাপ্তির পরে, এটি আপনার মডেল স্থাপন করার সময়। একটি টিউন করা মডেল কীভাবে স্থাপন করতে হয় তার জন্য আপনি সাধারণত আপনার নির্বাচিত কাঠামোর জন্য ডকুমেন্টেশন উল্লেখ করতে পারেন।
আপনি যদি LoRA টিউন করা ওজনের সাথে একটি মডেল স্থাপন করেন, মনে রাখবেন যে এই কৌশলটির সাহায্যে আপনি সাধারণত মডেলটির জন্য একটি অতিরিক্ত গণনা স্তর হিসাবে LoRA ওজনের সাথে মূল মডেল এবং এর ওজন উভয়ই স্থাপন করেন।
,একটি জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) মডেলকে ফাইন-টিউনিং যেমন জেমা মডেলের আচরণ পরিবর্তন করে। আপনি সাধারণত একটি নির্দিষ্ট টাস্ক বা ডোমেনে এর পারফরম্যান্স উন্নত করার অভিপ্রায়ে বা গ্রাহক পরিষেবার মতো একটি ভূমিকা আরও ভালভাবে সম্পাদন করার অভিপ্রায়ে সূক্ষ্ম সুর করেন। জেমা মডেলগুলি খোলা ওজনের সাথে প্রকাশ করা হয়, যার অর্থ আপনি সেই ওজনগুলিকে সংশোধন করতে পারেন, যা মডেলের আচরণকে পরিবর্তন করে। একটি জেমা মডেলকে ফাইন-টিউন করার জন্য সাধারণ পদক্ষেপগুলি নিম্নরূপ:
একটি কাঠামো চয়ন করুন
জেমা মডেলগুলি বিভিন্ন ধরণের এআই টিউনিং ফ্রেমওয়ার্কের সাথে সামঞ্জস্যপূর্ণ। প্রতিটি কাঠামো বিভিন্ন সুবিধা প্রদান করে এবং সাধারণত একটি নির্দিষ্ট মডেল বিন্যাসে সীমাবদ্ধ থাকে। এখানে বিভিন্ন ফ্রেমওয়ার্ক সহ জেমা মডেল টিউন করার জন্য গাইড রয়েছে:
- LoRA ব্যবহার করে Keras
- JAX-এর জন্য Gemma লাইব্রেরি
- আলিঙ্গন মুখ
- গুগল ক্লাউড জিকেই (এইচএফ ট্রান্সফরমার সহ মাল্টি-জিপিইউ)
- আনস্লথ
- অ্যাক্সোলটল
- কেরাস ডিস্ট্রিবিউটেড টিউনিং ব্যবহার করে
নিশ্চিত করুন যে আপনার উদ্দিষ্ট স্থাপনার মডেল বিন্যাস, যেমন Keras বিন্যাস, Safetensors, বা GGUF, আপনার নির্বাচিত ফ্রেমওয়ার্ক দ্বারা একটি আউটপুট হিসাবে সমর্থিত।
তথ্য সংগ্রহ করুন
মডেল টিউনিং তথ্য প্রয়োজন. টিউনিং ডেটা সাধারণত প্রত্যাশিত প্রতিক্রিয়া সহ ইনপুট ডেটার জোড়া নিয়ে থাকে। বিভিন্ন কাজ বা আউটপুট প্রশিক্ষণের জন্য অনলাইনে অনেক পাবলিক ডেটাসেট উপলব্ধ রয়েছে। উদাহরণস্বরূপ, আপনি যদি গাড়ির অংশের বিবরণকে অংশ নম্বরে অনুবাদ করার জন্য একটি জেমা মডেলকে প্রশিক্ষণ দিতে চান তবে আপনার ডেটাসেটে নিম্নলিখিতগুলি অন্তর্ভুক্ত থাকতে পারে:
training_data = [
{"input_text": "Part number for A4 brake caliper", "output_text": "4M0615107BS"},
{"input_text": "Part number for Beetle fuel pump", "output_text": "6A127026H"},
{"input_text": "Part number for Camaro cylinder head", "output_text": "12711770"},
]
আপনি যদি একটি Gemma মডেলকে একটি নির্দিষ্ট কাজ বা ভূমিকা সম্পাদন করতে চান তবে আপনাকে সাধারণত সেই কাজের একাধিক বৈচিত্র প্রদর্শন করে একটি ডেটাসেট কম্পাইল করতে হবে। একটি মডেল টিউন করার জন্য আপনার কতটা ডেটা প্রয়োজন তা আপনার লক্ষ্যগুলির উপর নির্ভর করে, বিশেষ করে আপনি মডেল থেকে কতটা আচরণগত পরিবর্তন চান এবং আপনি মডেলটি কতটা ভালোভাবে কাজটি সম্পন্ন করতে চান এবং ইনপুট ডেটার পরিবর্তনের স্তরের উপর ভিত্তি করে।
সাধারণভাবে, আপনার টাস্ক টিউনিংয়ের জন্য ডেটার একটি ছোট সেট দিয়ে শুরু করা উচিত, প্রশিক্ষণের পরামিতি সামঞ্জস্য করা এবং ডেটা যোগ করা উচিত যতক্ষণ না আপনি আপনার প্রয়োজনীয়তা পূরণ করে এমন টাস্ক পারফরম্যান্স অর্জন করেন। আমাদের কিছু উদাহরণ অ্যাপ্লিকেশন দেখায় যে আপনি 20 টির মতো প্রম্পট এবং প্রতিক্রিয়া জোড়া দিয়ে একটি জেমা মডেলের আচরণকে প্রভাবিত করতে পারেন। আরও বিশদ বিবরণের জন্য, Gemma এর সাথে একটি ব্যবসায়িক ইমেল AI সহকারী তৈরি করুন এবং Gemma-এর সাথে কথ্য ভাষায় কাজগুলি দেখুন।
টিউন এবং মডেল পরীক্ষা
একবার আপনার কাছে একটি টিউনিং ফ্রেমওয়ার্ক এবং টিউনিং ডেটা থাকলে, আপনি জেমা মডেল টিউনিং প্রক্রিয়া শুরু করতে পারেন। টিউনিং করার সময়, আপনি কীভাবে টিউন করেন তার জন্য আপনার কাছে কিছু বিকল্প রয়েছে যা এটি সম্পূর্ণ করার জন্য আপনার প্রয়োজনীয় সংস্থানগুলিকে প্রভাবিত করে। আপনার টিউন করা মডেলটি টিউন করার পরে আপনি যেভাবে চান তা সম্পাদন করছে কিনা তা মূল্যায়ন করার জন্য আপনার একটি পরীক্ষার পরিকল্পনা থাকা উচিত।
প্যারামিটার-দক্ষ টিউনিং
জেমার মতো একটি খোলা ওজনের মডেলকে ফাইন-টিউনিং করার সময়, আপনার কাছে মডেলের সমস্ত প্যারামিটার টিউন করার বা একটি কম রিসোর্স ইনটেনসিভ প্যারামিটার দক্ষ টিউনিং কৌশল ব্যবহার করার বিকল্প রয়েছে যা তাদের একটি উপসেট আপডেট করে। একটি সম্পূর্ণ টিউনিং পদ্ধতির অর্থ হল যে আপনি আপনার টিউনিং ডেটা প্রয়োগ করার সাথে সাথে আপনি মডেলের সমস্ত প্যারামিটারের জন্য নতুন ওজন গণনা করবেন। এই পদ্ধতিটি গণনা নিবিড় এবং মেমরি নিবিড়, যেহেতু আপনি বিলিয়ন প্যারামিটারের জন্য এই গণনাগুলি সম্পাদন করছেন। কম রিসোর্স ইনটেনসিভ টিউনিং পন্থা ব্যবহার করে, যাকে প্যারামিটার এফিসিয়েন্ট ফাইন-টিউনিং (PEFT) বলা হয়, যার মধ্যে লো র্যাঙ্ক অ্যাডাপ্টার (LoRA) টিউনিংয়ের মতো কৌশলগুলিও কম কম্পিউট রিসোর্সে একই রকম ফলাফল তৈরি করতে পারে। কিভাবে LoRA ব্যবহার করে কম রিসোর্স দিয়ে টিউনিং করা যায় তার বিস্তারিত জানার জন্য, কেরাসের ফাইন-টিউন জেমা মডেলগুলি LoRA ব্যবহার করে এবং ফাইন-টিউনিং জেমা মডেলগুলিকে আলিঙ্গন মুখে দেখুন৷
টিউন করা মডেল পরীক্ষা করা হচ্ছে
একবার আপনি একটি নির্দিষ্ট কাজের জন্য একটি মডেল টিউন করার পরে আপনি এটি সম্পাদন করতে চান এমন কাজের সেটের বিপরীতে এটির কার্যকারিতা পরীক্ষা করা উচিত। আপনার মডেলটি এমন কাজ বা অনুরোধগুলির সাথে পরীক্ষা করা উচিত যাতে এটি বিশেষভাবে প্রশিক্ষিত ছিল না। আপনি কীভাবে আপনার টিউন করা মডেলটি পরীক্ষা করবেন তা নির্ভর করে আপনি এটি যে কাজটি সম্পাদন করতে চান এবং আপনি মডেলের জন্য ইনপুট এবং আউটপুটগুলি কতটা নিবিড়ভাবে পরিচালনা করেন তার উপর। জেনারেটিভ মডেল টেস্টিং পরিচালনা করার একটি সাধারণ উপায় হল সাফল্য, ব্যর্থতা এবং সীমারেখার ক্ষেত্রে ব্যবহার করা:
- সাফল্যের পরীক্ষা : অনুরোধ করে যে টিউন করা মডেলটি সর্বদা সফলভাবে সম্পাদন করতে সক্ষম হওয়া উচিত।
- ব্যর্থতা পরীক্ষা : অনুরোধ করা হয়েছে যে টিউন করা মডেলটি সবসময় সঞ্চালন করতে সক্ষম হবে না, বা অনুরোধ করা হলে স্পষ্টভাবে সম্পাদন করতে অস্বীকার করবে।
- সীমানা পরীক্ষা : অনুরোধ যে টিউন করা মডেলটি সম্পাদন করতে সক্ষম হওয়া উচিত, যদি তারা একটি সংজ্ঞায়িত সীমার মধ্যে পড়ে, বা সীমার সেট, গ্রহণযোগ্য আউটপুট আচরণের।
আপনার জেনারেটিভ AI অ্যাপ্লিকেশনের জন্য ব্যর্থতা বা সীমানা শর্তগুলি পরীক্ষা করার সময়, আপনাকে দায়ী জেনারেটিভ AI টুলকিটে বর্ণিত জেনারেটিভ এআই সুরক্ষা পদ্ধতি, কৌশল এবং সরঞ্জামগুলিও প্রয়োগ করতে হবে।
মডেল স্থাপন
আপনার টিউনিং এবং আপনার পরীক্ষার সফল সমাপ্তির পরে, এটি আপনার মডেল স্থাপন করার সময়। একটি টিউন করা মডেল কীভাবে স্থাপন করতে হয় তার জন্য আপনি সাধারণত আপনার নির্বাচিত কাঠামোর জন্য ডকুমেন্টেশন উল্লেখ করতে পারেন।
আপনি যদি LoRA টিউন করা ওজনের সাথে একটি মডেল স্থাপন করেন, মনে রাখবেন যে এই কৌশলটির সাহায্যে আপনি সাধারণত মডেলটির জন্য একটি অতিরিক্ত গণনা স্তর হিসাবে LoRA ওজনের সাথে মূল মডেল এবং এর ওজন উভয়ই স্থাপন করেন।
,একটি জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) মডেলকে ফাইন-টিউনিং যেমন জেমা মডেলের আচরণ পরিবর্তন করে। আপনি সাধারণত একটি নির্দিষ্ট টাস্ক বা ডোমেনে এর পারফরম্যান্স উন্নত করার অভিপ্রায়ে বা গ্রাহক পরিষেবার মতো একটি ভূমিকা আরও ভালভাবে সম্পাদন করার অভিপ্রায়ে সূক্ষ্ম সুর করেন। জেমা মডেলগুলি খোলা ওজনের সাথে প্রকাশ করা হয়, যার অর্থ আপনি সেই ওজনগুলিকে সংশোধন করতে পারেন, যা মডেলের আচরণকে পরিবর্তন করে। একটি জেমা মডেলকে ফাইন-টিউন করার জন্য সাধারণ পদক্ষেপগুলি নিম্নরূপ:
একটি কাঠামো চয়ন করুন
জেমা মডেলগুলি বিভিন্ন ধরণের এআই টিউনিং ফ্রেমওয়ার্কের সাথে সামঞ্জস্যপূর্ণ। প্রতিটি কাঠামো বিভিন্ন সুবিধা প্রদান করে এবং সাধারণত একটি নির্দিষ্ট মডেল বিন্যাসে সীমাবদ্ধ থাকে। এখানে বিভিন্ন ফ্রেমওয়ার্ক সহ জেমা মডেল টিউন করার জন্য গাইড রয়েছে:
- LoRA ব্যবহার করে Keras
- JAX-এর জন্য Gemma লাইব্রেরি
- আলিঙ্গন মুখ
- গুগল ক্লাউড জিকেই (এইচএফ ট্রান্সফরমার সহ মাল্টি-জিপিইউ)
- আনস্লথ
- অ্যাক্সোলটল
- কেরাস ডিস্ট্রিবিউটেড টিউনিং ব্যবহার করে
নিশ্চিত করুন যে আপনার উদ্দিষ্ট স্থাপনার মডেল বিন্যাস, যেমন Keras বিন্যাস, Safetensors, বা GGUF, আপনার নির্বাচিত ফ্রেমওয়ার্ক দ্বারা একটি আউটপুট হিসাবে সমর্থিত।
তথ্য সংগ্রহ করুন
মডেল টিউনিং তথ্য প্রয়োজন. টিউনিং ডেটা সাধারণত প্রত্যাশিত প্রতিক্রিয়া সহ ইনপুট ডেটার জোড়া নিয়ে থাকে। বিভিন্ন কাজ বা আউটপুট প্রশিক্ষণের জন্য অনলাইনে অনেক পাবলিক ডেটাসেট উপলব্ধ রয়েছে। উদাহরণস্বরূপ, আপনি যদি গাড়ির অংশের বিবরণকে অংশ নম্বরে অনুবাদ করার জন্য একটি জেমা মডেলকে প্রশিক্ষণ দিতে চান তবে আপনার ডেটাসেটে নিম্নলিখিতগুলি অন্তর্ভুক্ত থাকতে পারে:
training_data = [
{"input_text": "Part number for A4 brake caliper", "output_text": "4M0615107BS"},
{"input_text": "Part number for Beetle fuel pump", "output_text": "6A127026H"},
{"input_text": "Part number for Camaro cylinder head", "output_text": "12711770"},
]
আপনি যদি একটি Gemma মডেলকে একটি নির্দিষ্ট কাজ বা ভূমিকা সম্পাদন করতে চান তবে আপনাকে সাধারণত সেই কাজের একাধিক বৈচিত্র প্রদর্শন করে একটি ডেটাসেট কম্পাইল করতে হবে। একটি মডেল টিউন করার জন্য আপনার কতটা ডেটা প্রয়োজন তা আপনার লক্ষ্যগুলির উপর নির্ভর করে, বিশেষ করে আপনি মডেল থেকে কতটা আচরণগত পরিবর্তন চান এবং আপনি মডেলটি কতটা ভালোভাবে কাজটি সম্পন্ন করতে চান এবং ইনপুট ডেটার পরিবর্তনের স্তরের উপর ভিত্তি করে।
সাধারণভাবে, আপনার টাস্ক টিউনিংয়ের জন্য ডেটার একটি ছোট সেট দিয়ে শুরু করা উচিত, প্রশিক্ষণের পরামিতি সামঞ্জস্য করা এবং ডেটা যোগ করা উচিত যতক্ষণ না আপনি আপনার প্রয়োজনীয়তা পূরণ করে এমন টাস্ক পারফরম্যান্স অর্জন করেন। আমাদের কিছু উদাহরণ অ্যাপ্লিকেশন দেখায় যে আপনি 20 টির মতো প্রম্পট এবং প্রতিক্রিয়া জোড়া দিয়ে একটি জেমা মডেলের আচরণকে প্রভাবিত করতে পারেন। আরও বিশদ বিবরণের জন্য, Gemma এর সাথে একটি ব্যবসায়িক ইমেল AI সহকারী তৈরি করুন এবং Gemma-এর সাথে কথ্য ভাষায় কাজগুলি দেখুন।
টিউন এবং মডেল পরীক্ষা
একবার আপনার কাছে একটি টিউনিং ফ্রেমওয়ার্ক এবং টিউনিং ডেটা থাকলে, আপনি জেমা মডেল টিউনিং প্রক্রিয়া শুরু করতে পারেন। টিউনিং করার সময়, আপনি কীভাবে টিউন করেন তার জন্য আপনার কাছে কিছু বিকল্প রয়েছে যা এটি সম্পূর্ণ করার জন্য আপনার প্রয়োজনীয় সংস্থানগুলিকে প্রভাবিত করে। আপনার টিউন করা মডেলটি টিউন করার পরে আপনি যেভাবে চান তা সম্পাদন করছে কিনা তা মূল্যায়ন করার জন্য আপনার একটি পরীক্ষার পরিকল্পনা থাকা উচিত।
প্যারামিটার-দক্ষ টিউনিং
জেমার মতো একটি খোলা ওজনের মডেলকে ফাইন-টিউনিং করার সময়, আপনার কাছে মডেলের সমস্ত প্যারামিটার টিউন করার বা একটি কম রিসোর্স ইনটেনসিভ প্যারামিটার দক্ষ টিউনিং কৌশল ব্যবহার করার বিকল্প রয়েছে যা তাদের একটি উপসেট আপডেট করে। একটি সম্পূর্ণ টিউনিং পদ্ধতির অর্থ হল যে আপনি আপনার টিউনিং ডেটা প্রয়োগ করার সাথে সাথে আপনি মডেলের সমস্ত প্যারামিটারের জন্য নতুন ওজন গণনা করবেন। এই পদ্ধতিটি গণনা নিবিড় এবং মেমরি নিবিড়, যেহেতু আপনি বিলিয়ন প্যারামিটারের জন্য এই গণনাগুলি সম্পাদন করছেন। কম রিসোর্স ইনটেনসিভ টিউনিং পন্থা ব্যবহার করে, যাকে প্যারামিটার এফিসিয়েন্ট ফাইন-টিউনিং (PEFT) বলা হয়, যার মধ্যে লো র্যাঙ্ক অ্যাডাপ্টার (LoRA) টিউনিংয়ের মতো কৌশলগুলিও কম কম্পিউট রিসোর্সে একই রকম ফলাফল তৈরি করতে পারে। কিভাবে LoRA ব্যবহার করে কম রিসোর্স দিয়ে টিউনিং করা যায় তার বিস্তারিত জানার জন্য, কেরাসের ফাইন-টিউন জেমা মডেলগুলি LoRA ব্যবহার করে এবং ফাইন-টিউনিং জেমা মডেলগুলিকে আলিঙ্গন মুখে দেখুন৷
টিউন করা মডেল পরীক্ষা করা হচ্ছে
একবার আপনি একটি নির্দিষ্ট কাজের জন্য একটি মডেল টিউন করার পরে আপনি এটি সম্পাদন করতে চান এমন কাজের সেটের বিপরীতে এটির কার্যকারিতা পরীক্ষা করা উচিত। আপনার মডেলটি এমন কাজ বা অনুরোধগুলির সাথে পরীক্ষা করা উচিত যাতে এটি বিশেষভাবে প্রশিক্ষিত ছিল না। আপনি কীভাবে আপনার টিউন করা মডেলটি পরীক্ষা করবেন তা নির্ভর করে আপনি এটি যে কাজটি সম্পাদন করতে চান এবং আপনি মডেলের জন্য ইনপুট এবং আউটপুটগুলি কতটা নিবিড়ভাবে পরিচালনা করেন তার উপর। জেনারেটিভ মডেল টেস্টিং পরিচালনা করার একটি সাধারণ উপায় হল সাফল্য, ব্যর্থতা এবং সীমারেখার ক্ষেত্রে ব্যবহার করা:
- সাফল্যের পরীক্ষা : অনুরোধ করে যে টিউন করা মডেলটি সর্বদা সফলভাবে সম্পাদন করতে সক্ষম হওয়া উচিত।
- ব্যর্থতা পরীক্ষা : অনুরোধ করা হয়েছে যে টিউন করা মডেলটি সবসময় সঞ্চালন করতে সক্ষম হবে না, বা অনুরোধ করা হলে স্পষ্টভাবে সম্পাদন করতে অস্বীকার করবে।
- সীমানা পরীক্ষা : অনুরোধ যে টিউন করা মডেলটি সম্পাদন করতে সক্ষম হওয়া উচিত, যদি তারা একটি সংজ্ঞায়িত সীমার মধ্যে পড়ে, বা সীমার সেট, গ্রহণযোগ্য আউটপুট আচরণের।
আপনার জেনারেটিভ AI অ্যাপ্লিকেশনের জন্য ব্যর্থতা বা সীমানা শর্তগুলি পরীক্ষা করার সময়, আপনাকে দায়ী জেনারেটিভ AI টুলকিটে বর্ণিত জেনারেটিভ এআই সুরক্ষা পদ্ধতি, কৌশল এবং সরঞ্জামগুলিও প্রয়োগ করতে হবে।
মডেল স্থাপন
আপনার টিউনিং এবং আপনার পরীক্ষার সফল সমাপ্তির পরে, এটি আপনার মডেল স্থাপন করার সময়। একটি টিউন করা মডেল কীভাবে স্থাপন করতে হয় তার জন্য আপনি সাধারণত আপনার নির্বাচিত কাঠামোর জন্য ডকুমেন্টেশন উল্লেখ করতে পারেন।
আপনি যদি LoRA টিউন করা ওজনের সাথে একটি মডেল স্থাপন করেন, মনে রাখবেন যে এই কৌশলটির সাহায্যে আপনি সাধারণত মডেলটির জন্য একটি অতিরিক্ত গণনা স্তর হিসাবে LoRA ওজনের সাথে মূল মডেল এবং এর ওজন উভয়ই স্থাপন করেন।